Text copied to clipboard!

Název

Text copied to clipboard!

Vývojář velkých dat

Popis

Text copied to clipboard!
Hledáme zkušeného a motivovaného vývojáře velkých dat, který se připojí k našemu technologickému týmu a bude se podílet na návrhu, vývoji a optimalizaci řešení pro zpracování velkých objemů dat. Jako vývojář velkých dat budete hrát klíčovou roli při vytváření robustních datových platforem, které podporují rozhodování na základě dat a umožňují škálovatelné a efektivní zpracování informací v reálném čase i dávkově. Vaším hlavním úkolem bude navrhovat a implementovat datové toky, ETL procesy a datové pipelines pomocí moderních technologií jako Apache Spark, Hadoop, Kafka, Hive, či cloudových platforem jako AWS, Azure nebo Google Cloud Platform. Budete úzce spolupracovat s datovými analytiky, datovými inženýry a dalšími vývojáři na vývoji řešení, která umožní efektivní ukládání, transformaci a analýzu dat. Ideální kandidát má silné programátorské schopnosti v jazycích jako Java, Scala nebo Python, zkušenosti s databázovými systémy (relačními i NoSQL), a hluboké porozumění principům distribuovaného zpracování dat. Znalost DevOps nástrojů a CI/CD procesů je výhodou. Tato pozice je vhodná pro jednotlivce, kteří mají vášeň pro práci s daty, rádi řeší komplexní technické problémy a chtějí se podílet na vývoji inovativních datových řešení, která mají reálný dopad na podnikání. Nabízíme flexibilní pracovní prostředí, možnost práce na dálku, přístup k nejmodernějším technologiím a příležitost profesního růstu v dynamickém a podporujícím týmu.

Odpovědnosti

Text copied to clipboard!
  • Návrh a vývoj datových pipeline pro zpracování velkých dat
  • Implementace ETL procesů a optimalizace datových toků
  • Spolupráce s datovými analytiky a inženýry na integraci dat
  • Správa a údržba distribuovaných datových systémů
  • Zajištění kvality a bezpečnosti dat
  • Monitorování výkonu a ladění datových aplikací
  • Nasazování řešení v cloudovém prostředí (AWS, Azure, GCP)
  • Automatizace procesů pomocí DevOps nástrojů
  • Dokumentace technických řešení a postupů
  • Podpora při řešení technických incidentů a chyb

Požadavky

Text copied to clipboard!
  • Zkušenosti s technologiemi jako Apache Spark, Hadoop, Kafka
  • Znalost programovacích jazyků Java, Scala nebo Python
  • Zkušenosti s databázemi (SQL i NoSQL)
  • Znalost cloudových platforem (AWS, Azure, GCP)
  • Schopnost pracovat v týmu i samostatně
  • Zkušenosti s CI/CD a DevOps nástroji
  • Analytické myšlení a schopnost řešit problémy
  • Znalost anglického jazyka na technické úrovni
  • Vysokoškolské vzdělání v oboru informatiky nebo příbuzném
  • Zkušenosti s nástroji pro správu verzí (např. Git)

Potenciální otázky na pohovor

Text copied to clipboard!
  • Jaké technologie pro zpracování velkých dat ovládáte?
  • Máte zkušenosti s vývojem v jazyce Scala nebo Java?
  • Jaké cloudové platformy jste používal(a) a v jakém rozsahu?
  • Popište projekt, na kterém jste pracoval(a) s využitím Apache Spark.
  • Jak přistupujete k optimalizaci výkonu datových pipeline?
  • Máte zkušenosti s DevOps nástroji a CI/CD procesy?
  • Jak řešíte problémy s kvalitou dat?
  • Jaké databázové systémy jste používal(a) a proč?
  • Jaké jsou vaše silné stránky při práci s velkými daty?
  • Jste ochoten/ochotna pracovat v hybridním nebo plně vzdáleném režimu?